Световни новини без цензура!
AI не трябва да бъде черна кутия
Снимка: ft.com
Financial Times | 2024-05-30 | 20:49:04

AI не трябва да бъде черна кутия

Привържениците и съперниците на AI са склонни да се съгласят, че технологията ще промени света. Хората като Сам Алтман от OpenAI виждат бъдеще, в което човечеството ще процъфтява; критиците предсказват ​​обществено разстройство и несъразмерна корпоративна власт. Коя прогноза ще се сбъдне зависи частично от основите, положени през днешния ден. И въпреки всичко неотдавнашните разногласия в OpenAI – в това число напускането на неговия съосновател и основен академик – допускат, че основните играчи на ИИ са станали прекомерно непрозрачни, с цел да може обществото да дефинира верния курс.

Индекс, създаден в Станфордския университет, открива бистрота при водачите на AI Гугъл, Amazon, Meta и OpenAI не дават отговор на нужното. Въпреки че AI се появи посредством съдействие сред откриватели и специалисти от разнообразни платформи, фирмите се успокоиха, откакто ChatGPT на OpenAI сложи началото на комерсиален взрив на AI. Като се имат поради евентуалните рискове от AI, тези компании би трябвало да се върнат към своето по-отворено минало.

Прозрачността в AI попада в две съществени области: входните данни и моделите. Големите езикови модели, основата за генеративен AI, като ChatGPT на OpenAI или Gemini на Гугъл, се образоват посредством тралене в интернет, с цел да проучват и да се учат от „ набори от данни “, които варират от форумите на Reddit до картините на Пикасо. В ранните дни на AI откривателите постоянно разкриваха своите данни за образование в научни списания, позволявайки на другите да диагностицират дефекти посредством претегляне на качеството на входящите данни.

Днес основните играчи са склонни да пазят детайлностите за своите данни, с цел да се защитят от правосъдни каузи за нарушение на авторски права и да извлекат конкурентно преимущество. Това затруднява оценката на истинността на отговорите, генерирани от AI. Освен това оставя писатели, артисти и други създатели без визия дали тяхната дискретност или интелектуална благосъстоятелност са били умишлено нарушени.

На самите модели също им липсва бистрота. Начинът, по който даден модел интерпретира своите входове и генерира език, зависи от неговия дизайн. Фирмите с изкуствен интелект са склонни да виждат архитектурата на техния модел като техен „ скришен сос “: изобретателността на GPT-4 на OpenAI или Llama на Meta се ориентира към качеството на неговите калкулации. Изследователите на AI един път разгласиха документи за своите планове, само че бързината за пазарен дял постави завършек на сходни разкрития. И въпреки всичко без схващане на това по какъв начин действа един модел, е мъчно да се оценят резултатите, рестриктивните мерки и пристрастията на AI.

Цялата тази неяснота затруднява обществеността и регулаторите да оценят сигурността на AI и да се предпазят от евентуални вреди. Това е още по-притеснително, защото Ян Лейке, който оказа помощ да управлява напъните на OpenAI за ръководство на свръхмощни принадлежности за изкуствен интелект, съобщи след напускането на компанията този месец, че нейните водачи са дали приоритет на „ лъскавите артикули “ пред сигурността. Компанията настоя, че може да контролира личния си артикул, само че новият й комитет по сигурността ще рапортува на същите водачи.

Правителствата започнаха да поставят основата за контролиране на ИИ посредством конференция предходната година в Блечли Парк, изпълнителната заповед на президента Джо Байдън по отношение на ИИ и Закона за ИИ на Европейски Съюз. Макар и приветствани, тези ограничения се концентрират върху защитните парапети и „ тестванията за сигурност “, а не върху цялостната бистрота. Реалността е, че множеството AI специалисти работят за самите компании, а технологиите се развиват прекомерно бързо, с цел да са задоволителни периодическите проби за сигурност. Регулаторите би трябвало да изискват бистрота на модела и входа, а специалистите в тези компании би трябвало да си сътрудничат с регулаторите.

ИИ има капацитета да трансформира света към по-добро — може би даже с по-голяма мощност и скорост от интернет революцията. Компаниите може да настояват, че условията за бистрота ще забавят нововъведенията и ще притъпят конкурентното им преимущество, само че скорошната история на ИИ допуска друго. Тези технологии напреднаха с помощта на съдействието и споделените проучвания. Връщането към тези правила единствено ще увеличи публичното доверие и ще разреши по-бързи, само че по-безопасни нововъведения.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!